Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
MID – Driving Continuous Transformation Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z. B. Snowflake, GCP BigQuery, Azure Synapse) mit.Du hast ein starkes Verständnis von ETL/ELT-Prozessen und Cloud-Architekturen sowie sehr gute Erfahrung in SQL, idealerweise in der Automatisierung und Optimierung von Datenprozessen.Bestenfalls bringst Du Zertifizierungen im Bereich Data Vault 2.0 oder 2.1 mit.Idealerweise kannst Du Ende zu Ende von der lokalen Entwicklung bis hin zum Cloud-Deployment und Monitoring tätig sein und bereits komplexe Cloud-native Software entwickelt und betrieben Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Know-how-Transfer 3 Tage on Site in Ranshofen bei Braunau sind notwendig Erfahrung im Data Center Betrieb Fundierte VM-Erfahrung Gute Azure-Kenntnisse Praxiswissen zu M365 und klassischer Infrastruktur Langfristiges Projekt mit Aussicht auf Projektverlängerung Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Herausfordernde Projektinhalte Ihr Kontakt Referenznummer 864750/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Scrum, ITIL) und in der Datenmodellierung Praxis in gängigen Tools wie Git, Jira, Confluence, SQL, Python und R; von Vorteil: Kenntnisse in QlikView/QlikSense, Power BI, Oracle, DB2, MySQL, Teradata oder MS SQL Server Die ausgeprägte Fähigkeit, die Kundenperspektive einzunehmen, Skepsis abzubauen und praxisnahe Lösungen zu entwickeln Abgeschlossenes Studium in (Wirtschafts-)Informatik, Data Science, AI, Mathematik, Statistik, Physik, Ingenieurwissenschaften oder eine vergleichbare Qualifikation Darauf darfst Du Dich schon freuen Flexible Arbeitsmodelle: Hochflexible (hybride) Arbeitszeit-/ortsmodelle, 30 Tage Urlaub und (Integrated) Sabbatical-Möglichkeiten sorgen für eine ausgewogene Work-Life-Balance.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Sie verfügen über eine Hands-on-Mentalität gepaart mit Weitblick für sichere, skalierbare Cloud-Architekturen. Kenntnisse in der Datenvisualisierung und im Reporting mit Tools wie PowerBI (inkl. DAX) oder vergleichsweise AWS QuickSight sind ein großer Vorteil.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Du bist erfahren im Umgang mit Kafka, Spark, Oracle PL/SQL, Informatica, DWH Automation und/oder CI/CD. Du besitzt Kenntnisse in Java und/oder Python und kennst relevante Tools und Bibliotheken. Du hast idealerweise Praxiserfahrung mit Cloud-Technologien (AWS und/oder MS Azure) und Datenmodellierung (Data Vault, Dimensional, 3NF, ADAPT etc.).
Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium im Bereich Informatik ✈ Erfahrung im Management von IT-Dienstleistern und Steuerung komplexer Projekte ✈ Fundiertes Verständnis von Cloud-Technologien ✈ Kenntnisse in DevOps-Prinzipien und CI/CD-Prozessen ✈ Starke Kommunikations- und Koordinationsfähigkeiten auf Deutsch und Englisch ✈ Erfahrung in Budgetplanung und Kostenkontrolle für IT-Projekte32 Tage bezahlte Freistellung (u.a.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Du hast ein abgeschlossenes Studium oder eine Ausbildung im Bereich Informatik, Wirtschaftsinformatik oder einem vergleichbaren technischen Studiengang absolviert. Du bringst praktische Kenntnisse mit Cloud-Plattformen wie AWS oder Azure mit und hast bereits kleinere Projekte in der Cloud umgesetzt. Du kennst dich mit CI/CD-Prozessen und Infrastructure as Code-Tools aus und hast Freude an der Automatisierung von IT-Prozessen.
Du besitzt mindestens 2 Jahre Berufserfahrung in den Bereichen Data Science, KI, Cloud o.ä. sowie fundierte Kenntnisse in der Programmierung, insbesondere in Python und/oder R. Du gehst sicher mit großen Datenmengen um und beherrschst deren Aufbereitung, Analyse und Darstellung.
Auch wenn Du auf Basis Deiner bisherigen Erfahrungen noch nicht ganz auf dem Niveau eines „Head of …“ bist – hier bekommst Du die besondere Chance, Dich zu beweisen und in diese Verantwortung hineinzuwachsen. IHRE KENNTNISSE Diese Rolle erfordert technische Tiefe auf Senior-Level. Du bringst langjährige Erfahrung aus dem produktiven Cloud-Betrieb mit – nicht aus Projekten oder reiner Architekturarbeit.
Dein Profil Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Ausbildung.Du verfügst über Kenntnisse zu Malware-Techniken und typischen Angriffsmustern im Internet.Du bist sicher im Umgang mit SSL/TLS-Protokollen und verfügst über ein gutes Verständnis von PKI, Zertifikaten und CA-Trustchains.Du bringst idealerweise erste Erfahrung im Betrieb der Palo Alto Plattform mit.Du hast Analysekenntnisse im Netzwerkbereich, z.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
für Modelltraining, Feature Stores oder MLOps Du kennst Dich mit der Bewertung und Auswahl führender Data- und Analytics-Technologien aus – sowohl für On-Premise- als auch für Cloud-Umgebungen. Du hast Kenntnisse im Bereih Datenschutz (DSGVO), Identity Management und Sicherheitsaspekten im Datenarchitekturdesign, auch im Kontext von KI, z.
für Modelltraining, Feature Stores oder MLOps Du kennst Dich mit der Bewertung und Auswahl führender Data- und Analytics-Technologien aus – sowohl für On-Premise- als auch für Cloud-Umgebungen. Du hast Kenntnisse im Bereih Datenschutz (DSGVO), Identity Management und Sicherheitsaspekten im Datenarchitekturdesign, auch im Kontext von KI, z.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Dein Profil: Ein abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder Eine abgeschlossene Berufsausbildung zum/zur Fachinformatiker/in oder Eine vergleichbare Qualifikation Erfahrung in der Administration von Windows-Server- und/oder Linux-Systemen Kenntnisse in der Skripterstellung, z. B. mit PowerShell, Bash u. w. Praxis im Umgang mit Security-Tools Konzeptionelles Verständnis komplexer IT-Umgebungen Sehr gute Deutschkenntnisse (min.
Abgeschlossene Ausbildung zum Fachinformatiker (m/w/d) oder ein Studium im Bereich Informatik/ Wirtschaftsinformatik sowie eine vergleichbare Qualifikation in den oben genannten Aufgabengebieten Mindestens 3 Jahre Berufserfahrung als Cloud Engineer (m/w/d) Erste Erfahrung im Bereich von Cloud- Infrastrukturen (Azure und/oder AWS) und Infrastructure-as-Code (Terraform) Fundierte Kenntnisse in Cloud-Plattformen (Azure und/oder AWS) sowie in Containerisierung und Orchestrierung (Docker, AKS, EKS) Kenntnisse in Datenschutz- und Compliance-Anforderungen (z.
Velero für K8s)BCDR‑Runbooks & Übungen mit TeamsTechnische Dokumentation: Runbooks, Playbooks, ADRs, Diagramme und BetriebsprozesseSchulungen/Enablement für Teams, klare Übergabepunkte (Definition of Ready/Done), Prozessdisziplin Das könntest du bei uns EINBRINGEN: Mindestens 3 Jahre Erfahrung in Cloud Operations (AWS/Azure) mit Terraform & CI/CD (z. B. GitLab CI)Fundierte Kenntnisse in Kubernetes (AKS/EKS) inkl. Netzwerk/Ingress, Helm/DeploymentsPraxis in Observability (Prometheus/Grafana, OpenTelemetry, Alerting) und Runbook‑getriebenem BetriebSicherer Umgang mit Identity & Access Management (IAM/RBAC), Tagging/Guardrails und Landing‑Zone‑PatternsFinOps‑Grundlagen (Kostenanalyse, Forecasting, Rightsizing)Erfahrung mit Security & Compliance in regulierten Umfeldern (z.
Um als Schnittstelle die Bereiche besser verstehen zu können, sind mindestens zwei Jahre Java (oder vergleichbare Programmiersprache) Erfahrung wünschenswert.Du hast bereits ein Jahr Erfahrung im Systembetrieb, besitzt darin grundlegendes Verständnis und kannst mit Linux und Bash umgehen.Du hast schon intensiv mit den gängigen CI-Tools wie Maven, Jenkins oder Gitlab CI gearbeitet.Du bringst gute Git Kenntnisse mit.Container sind für Dich kein Fremdwort und Du hast hier schon außerhalb der Entwicklung Erfahrung sammeln können.Du hast Erfahrung im Cloud Umfeld und hast hier bereits mit Infrastructure as Code gearbeitet.Zusätzlich freuen wir uns über Kenntnisse in Gradle, OpenShift, Kubernetes, Helm, Ansible und Terraform.Wünschenswert ist es, wenn Du bereits Erfahrungen in agilen Teams gesammelt hast, zum Beispiel mit Scrum.Zudem sprichst Du fließend Deutsch und gutes Englisch.Abwechslung ꞏ Flexibilität ꞏ Sicherheit ꞏ Wachstumsbranche ꞏ Work-Life-Balance Du weißt selbst am besten, wie Du effektiv und produktiv arbeitest.
Im Studium mit vertiefter Praxis kombinierst Du ideal Theorie und Praxis. Deine im Hochschulstudium erworbenen Kenntnisse wendest Du in den betrieblichen Praxisphasen in konkreten Projekten an. So lernst Du nicht nur, warum etwas funktioniert, sondern auch, wie es funktioniert und wie es gemacht wird.
Deployment-Profi: Du bist vertraut mit Deploymentprozessen über GitLab sowie CI/CD-Pipelines und hast Erfahrungen mit Salesforce oder alternativen Java Backend Implementierungen. Web-Kenntnisse: Erste Erfahrungen mit Webentwicklungen (LWC von Vorteil) sind wünschenswert. Cloud-Native: Kenntnisse in Cloud-Umgebungen, insbesondere Google Cloud, sind von Vorteil.
Deine Tätigkeitsschwerpunkte Der Bachelorstudiengang in Data Science und Künstliche Intelligenz vermittelt praxisorientierte Kenntnisse in Informatik, Mathematik, Statistik und Betriebswirtschaftslehre. Studierende lernen, wie sie große Datenmengen analysieren und intelligente KI-gestützte Anwendungen zur Optimierung von Geschäftsprozessen entwickeln können.
.------ Erfolgreich abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation Mehrjährige Berufserfahrung im Data-Engineering-Umfeld, idealerweise 8+ Jahre Sehr gute Python-Kenntnisse sowie fundierte Erfahrung mit ETL-Prozessen Gute Java-Kenntnisse (für die Integration in Java-basierte Services); React-Grundverständnis ist von Vorteil Interesse an KI-/AI-Themen oder idealerweise erste praktische Erfahrung in der Zusammenarbeit mit Data-Science/ML-Teams Kenntnisse in ETL-Prozessen und Datenverarbeitung sind wünschenswert (z.
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Auch wenn Du auf Basis Deiner bisherigen Erfahrungen noch nicht ganz auf dem Niveau eines „Head of …“ bist – hier bekommst Du die Chance, Deine Vision in einer skalierenden AI-Umgebung praktisch zu beweisen. IHRE KENNTNISSE Du bringst technologische Tiefe und Weitblick mit, um KI-Lösungen skalierbar und wirkungsvoll zu gestalten. Sicherer Umgang mit modernen AI-Stacks: Python, TensorFlow, PyTorch, Hugging Face.
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium in Informatik, Datenverarbeitung oder Nachrichtentechnik mit einschlägiger Berufserfahrung ✈ Mehrjährige Erfahrungen bei der Entwicklung und Einführung von Architekturvorgaben, der Umsetzung von Data-Governance-Ansätzen sowie beim Aufbau einer Datenorganisation ✈ Fundierte Kenntnisse in modernen Datenarchitekturen und Datenmodellen, v.a. auch in Cloud-Technologien und API-Architekturen ✈ Idealerweise Kenntnisse in SWIM (System Wide Information Management) ✈ Erfahrung im Einsatz von Werkzeugen, Tools und Anwendungen für Datenmanagement, -governance und -modellierung ✈ Erfahrung in Projektleitung und Arbeitsgruppen, auch im internationalen Umfeld ✈ Verhandlungssichere Englischkenntnisse in Wort und Schrift32 Tage bezahlte Freistellung (u.a.
Betrieb und Weiterentwicklung der hybriden Infrastruktur (On-Prem & Cloud – GCP, AWS oder Azure) Analyse bestehender Systeme und Identifikation geeigneter Services für eine Cloud-Migration Betreuung der VMware-Umgebungen sowie containerisierter Plattformen (Docker, Kubernetes/RKE2) Sicherstellung stabiler Netzwerkstrukturen (Routing, Switching, Firewalls – Cisco) Planung und Umsetzung eigener Infrastrukturprojekte inklusive Erstellung technischer Entscheidungsvorlagen Berufserfahrung in der Systemadministration oder im Infrastruktur-/Cloud Engineering Sehr gute Kenntnisse in Windows-Serverlandschaften und VMware Erfahrung mit Cloud-Umgebungen (GCP, AWS oder Azure) und ein ausgeprägtes Cloud-Mindset Fundierte Kenntnisse im Umgang mit Docker und Kubernetes Netzwerkgrundlagen sowie Verständnis relevanter IT-Sicherheitsprinzipien 30 Tage Urlaub Flexibler Remote-Anteil Flache Hierarchien, ausgeprägter Teamgeist und eine wertschätzende Arbeitsatmosphäre Individuelle Entwicklungsmöglichkeiten in einem kommunikativen und dynamischen Arbeitsumfeld Vielseitige und spannende Aufgaben in innovativen Projekten im Gesundheitswesen Moderne und nachhaltige Büroräume in attraktiver Lage von Düsseldorf mit guter Anbindung und Infrastruktur Betriebliches Gesundheitsmanagement Attraktives Bike-Leasing Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
AWS VPC, IAM, ECS, Lambda, CloudWatch, RDS/DynamoDB, S3) Eigenständige Entwicklung von Softwarekomponenten – insbesondere in Python Technische Verantwortung für digitale Produkte sowie datengetriebene Lösungen Mitarbeit an der Definition und Umsetzung der Digitalstrategie Begleitung und Steuerung von Software- und KI-Projekten Projektmanagement für ausgewählte Kunden- und Innovationsprojekte Enge Zusammenarbeit mit Business- und Fachbereichen und Übersetzung fachlicher Anforderungen in technische Lösungen Sicherstellung einer skalierbaren, hochverfügbaren und cloudoptimierten Gesamtarchitektur Mehrjährige Berufserfahrung in Digitalisierung, Softwarearchitektur oder Cloud-basierten Softwareprojekten Fundierte Kenntnisse in der AWS-Architektur und im Umgang mit relevanten AWS-Services Gute Programmierkenntnisse, idealerweise in Python Verständnis für datengetriebene Lösungen, Analytics oder KI-Themen von Vorteil 30 Tage Urlaub Beständiges und kontinuierlich wachsendes Unternehmen Die Möglichkeit, sich in Ihrem Aufgabengebiet umfassend einzubringen und sich persönlich weiterzuentwickeln Zuschuss zur betr.
Entwicklung und Weiterentwicklung von Softwaremodulen in C#, Python oder Go Implementierung von APIs, Integrationen und Datenverarbeitungsprozessen Anbindung und Integration unserer Messgeräte (IoT-Schnittstellen wie MQTT, Modbus) Ausbau bestehender Anwendungen und Architektur Sicherstellung der Softwarequalität durch Tests, Debugging und Code Reviews Analyse und Lösung komplexer technischer Probleme (Cloud & On-Prem) Zusammenarbeit mit Product Ownern, Hardwareentwicklung, QA und internationalen Teams Einbringen neuer Technologien und Ideen in den Entwicklungsprozess 5+ Jahre Erfahrung in der Softwareentwicklung Sehr gute Kenntnisse in C#, Python, Go oder vergleichbaren Sprachen Erfahrung in Backend-Systemen, APIs und Integrationen Solides Verständnis von SQL/NoSQL-Datenbanken Sicherer Umgang mit Git und modernen Entwicklungswerkzeugen Erste Erfahrung mit Cloud-Umgebungen (AWS bevorzugt) Plus: Kenntnisse in IoT, Sensorik oder Geräteintegration Analytische Fähigkeiten, selbstständige Arbeitsweise und Freude an technischen Herausforderungen Gute Englischkenntnisse, Deutsch von Vorteil Unbefristete Festanstellung Hybrides Arbeiten möglich bis zu 60% möglich Kollegiales, interdisziplinäres Team mit kurzen Entscheidungswegen Flexible Arbeitszeiten, Homeoffice, Weiterbildung & Zertifizierungen Fahrkostenzuschuss Betriebliche Altervorsorge Betriebliche Krankenzusatzversicherung Parkplatz Gehaltsinformationen Das Gehalt richtet sich nach der mitgebrachten, relevanten Berufserfahrung zwischen 80.ooo & 90.ooo Euro Ihr Kontakt Ansprechpartner Vincent Vetter Referenznummer 855238/1 Kontakt aufnehmen Telefon:+49-(0)911-21648107 E-Mail: vincent.vetter@hays.de Anstellungsart Festanstellung durch unseren Kunden
Du bist verantwortlich für die Konzeption, Weiterentwicklung und Optimierung der Microsoft Azure Cloud-Architektur und stellst sicher, dass sie den aktuellen und zukünftigen Geschäftsanforderungen entspricht Du entwickelst ganzheitliche Cloud- und Hybrid-Architekturen und berätst interne Stakeholder bei der Auswahl und Integration von Technologien Du übersetzt komplexe geschäftliche Anforderungen in skalierbare, sichere und performante Cloud-Lösungen Du definierst und implementierst Governance-, Sicherheits- und Compliance-Frameworks für die Azure-Umgebung Du entwirfst Lösungen für Datenmanagement, Identitäts- und Zugriffssteuerung, Netzwerkarchitektur sowie Business Continuity und Disaster Recovery Du arbeitest eng mit IT-Sicherheit, Netzwerk- und Datenarchitekten, DevOps-Teams sowie externen Dienstleistern zusammen, um eine integrierte und zukunftsfähige Cloud-Landschaft zu schaffen Du führst Architektur-Reviews durch und stellst sicher, dass Best Practices und Standards eingehalten werden Du unterstützt bei der Auswahl und Einführung neuer Cloud-Dienste und -Technologien und bewertest deren Auswirkungen auf die bestehende Infrastruktur Du begleitest Projekte von der Planung bis zur Umsetzung und stellst die technische Qualität und Konsistenz sicher Du bringst dich aktiv in die Weiterentwicklung von IT-Serviceprozessen und Automatisierungslösungen ein Du stellst Anwendersupport im Hard- und Softwareumfeld (Business-Applikationen und M365 Komponenten) sicher Du hast ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation Du hast fundierte Erfahrung in der Konzeption und Umsetzung von Azure-Cloud-Architekturen in komplexen Unternehmensumgebungen Du bist vertraut mit Azure-Diensten wie Compute, Storage, Networking, Security, Governance und Monitoring und kannst diese strategisch einsetzen Du verfügst über fundierte Kenntnisse in allgemeinen IT-Vorgängen, einschließlich Netzwerk, Virtualisierung, Identität, Geschäftskontinuität, Governance, Datenplattformen sowie idealerweise in den Bereichen Sicherheit und Notfallwiederherstellung Du hast Erfahrung in der Gestaltung, Implementierung und Administration von Microsoft Cloud/Azure-Infrastrukturen, Architekturen und Ressourcen Du besitzt Scripting-Fähigkeiten, vorzugsweise in PowerShell, und bist sicher im Umgang mit Intune und Entra Du hast Erfahrung im Umgang mit Microsoft 365 und SharePoint und kennst dich im ITSM-Bereich aus (z.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du unterstützt das Team der Azure Plattform als Entwickler für zentrale Plattformdienste wie beispielsweise Landing Zones, Azure Policy oder Log Analytics Du entwickelst Infrastructure as Code in Terraform und Bicep für das Deployment und die Konfiguration der Plattformdienste Du analysierst zusammen mit dem Service Owner die Anforderungen der internen IT Kunden und leitest die notwendigen Tätigkeiten in Form eines Backlogs daraus ab Du zeigst dich verantwortlich für die Entwicklung (Dev) und Betrieb (Ops) der von dir betreuten Plattformdienste Du behebst und debuggst komplexe Probleme, identifizierst und behebst die Ursache und erstellst ein detailliertes Dokument (RCA), in dem die erforderlichen Informationen zu dem Problem aufgeführt sind Das bringst du mit Abgeschlossenes Studium der (Wirtschafts )Informatik oder Ausbildung mit einschlägiger Berufserfahrung Erfahrung in der Planung und Realisierung von Cloud Services Tiefgreifende Kenntnisse im Umgang mit Public Clouds (IaaS, PaaS, SaaS) Kenntnisse über Cloud Computing (Microsoft Azure, Google Cloud Platform) Erfahrung in der Entwicklung mit Terraform und Bicep Erfahrung mit den Themen Landing Zone Deployment, Management Groups, Azure Policy, Log Analytics Workspace, Service Health Alerts, self hosted DevOps Agents Umfassendes Verständnis der Prinzipien von Continuous Integration (CI) und Continuous Deployment (CD) Gute Deutsch und Englischkenntnisse in Wort und Schrift, Polnisch ist von Vorteil AZ 900 und AZ 204 Zertifizierung.